O ChatGPT, a classe dos inúteis e o cão que empurrava crianças no rio!

Por Lenio Luiz Streck, em ConJur

1. Não se fala de outra coisa: de como estão matando a cognição e como isso não importa para as novas guildas pós-modernas

Vários textos chamam a atenção para os perigos da Inteligência Artificial e o novo ChatGPT. Listo aqui brevemente: Justo Barranco escreve sobre a morte da arte diante de nossos olhos. Mostra o quadro premiado na Colorado State Fair. É de uma máquina.

O Reino Unido convidou dois cientistas de Oxford — Michael Osborne e Michael Cohen — para falarem sobre a IA e os seus perigos. Mostraram que existem perigos em comum entre a IA e a guerra nuclear. O resumo está na entrevista de Osborne na Folha do dia 19/2 último.

2. O robô que faz estelionato de segundo nível

Aqui na ConJur, Henderson Fürst (aqui) e Alejandro Arrabal (aqui). Fürst mostra as inconsistências do ChatGPT. A inconfiabilidade e os efeitos colaterais. Arrabal mostra talvez o mais grave problema: o das fontes e do plágio. A inexorabilidade disso. Veja o “diálogo” de Arrabal com o robô: Arrabal: “Você afirmou que foi ‘treinado com uma grande quantidade de texto da internet’. Então, existe a possibilidade dos textos que lhe forneceram, serem de autoria reconhecida, e você não mencionar as fontes?”

Resposta do ChatGPT: “Eu sou treinado usando uma técnica chamada ‘aprendizado por transferência de conhecimento’ que me permite aproveitar o conhecimento adquirido a partir de grandes quantidades de texto. Durante meu treinamento, não foi fornecida a mim qualquer informação sobre as fontes dos textos que usei, então não posso citar fontes específicas quando forneço informações.(…)”

A pergunta vai no cerne. Há uma vigarice institucionalizada no ar. Não há mais fontes, a não ser as da água mineral. Já quase não havia. Os humanos já não citam. Apropriam-se. Mas agora temos um robô que aprendeu com os humanos. Ele se apropria de todo o conhecimento para que esse, em uma anarco-epistemologia, passe a ser livre.

Veja-se que o robô diz que não cita fontes porque é assim alimentado. Alimentação aqui é conteúdo derramado na internet por qualquer pessoa. É como a Wikipedia. É como o google, que responde de acordo com o que tem. E não adianta o robô trabalhar com fontes: como lidará com contextos? E as paráfrases? E os textos que falam de outros textos?

O ChatGPT é um vigarista de segundo nível. Um metavigarista. Com estilo, é claro. Convenhamos: os textos do ChatGPT são (bem) melhores do que alunos copiadores. E de néscios das redes sociais imitadores-plagiadores. O robô faz do limão do emaranhado de informações uma espécie de “conhecimento reciclado”. Junta tudo, seleciona e vomita o que tem. Como dizem Osborne e Cohen, se pedir para o robô a solução para o câncer, ele pode sugerir matar a humanidade.

3. E o cachorro aprendeu rapidinho! Um cão estelionatário…!

Adorei a história que Osborne conta sobre o cachorro que salvou uma criança que se afogava no Sena. Como recompensa, ganhou um bife. Tempos depois, ele salvou outra criança. Ganhou um bife. Uma terceira vez e mais bife. Descobriram, na sequência, que o cachorro empurrava crianças no Sena para ir salvá-las.

Eis o ChatGPT: um produto da mediocridade do mundo, o resultado do venire contra factum proprium inerente à humanidade pós-moderna: ela joga informações quaisquer na rede; empilha informações, dados, textos. O robô, produto da humanidade, pega tudo e, sobranceiro, responde às demandas. Pronto: a humanidade tira proveito de sua própria torpeza. Ou de sua própria mediocridade.

A quem interessa que robôs façam os trabalhos escolares, os desenhos etc.? A quem interessa que, em vez de se ler Machado, o robô apresente um resuminho explicativo?

Há um ponto filosófico aqui, e isso precisa ser dito. Porque vale para essa algoritmização do mundo, dos robôs que fulminam recursos e o ChatGPT. É uma questão de accountability hermenêutico. Sobre fundamentação, ou, como gosto de definir, accountability, sobre fundamentação da fundamentação. Quais são as fontes adotadas pelo ChatGPT — ou quais são os critérios adotados pelo robô que fulmina seu recurso — para dizer isto ou aquilo, esteja isto certo e aquilo errado ou vice-versa? Porque o busílis está para além de respostas potencialmente erradas. Mesmo nas respostas certasQuais foram as condições para que o robô chegasse na resposta certa? Quem escreveu? Quem disse? Onde? Qual é a origem? Quais são os critérios de seleção? Não sabemos.

4. E vendem cursos de Lei Seca — uma barbada para o ChatGPT

Vi que já inventaram um aplicativo chamado Socratic by Google. Mais um santo expedito dos preguiçosos e aproveitadores. Você fotografa uma questão qualquer de concurso ou quejandice e ele dá as respostas tipo ChatGPT. Pronto. Eis aí uma solução para o nível dos concursos quiz shows que exigem hoje decorebas a ponto de três juízes venderem cursinho de Lei Seca… Nota: descobri que Lei Seca não tem nada a ver com álcool. São os tempos “pós-modernos”…

5. O paradoxo pós-moderno: quanto mais informação, mais néscios

Interessante: quanto mais informação, mais néscios. Deveria ser o contrário. Por que isso é assim? Porque, como já disse T.S. Eliot antes do advento do smartphone, bem antes, que informação (que qualquer um tem à mão) não é conhecimento; conhecimento não é saber; e saber não é sabedoria.

A quem interessa que um robô julgue processos (sem que se diga quais são os critérios de julgamento)? A quem interessa que um robô ofereça respostas prontas (sem dizer de onde tirou essas respostas)?

Arautos da técnica sempre vêm “ah, eu nunca disse que robôs são como humanos, humanos têm emoções”. Claro. Bem meigo isso. Reduzem tudo a uma (falsa) dicotomia racionalidade/emoções, como se o processo cognitivo não tivesse desde-já-sempre um elemento moral. Qual é a responsabilidade moral do robô? Pois é.

Eis o ponto. Fundamentação da fundamentação. Não há.

6. Por que não existe intelectual bronzeado

Tampouco há mágica. Não existe intelectual bronzeado (é uma metáfora, antes que um néscio apareça para dizer que ele conhece exceções e ele mesmo é uma delas, com o que confessa que é um néscio…!).

Lembremos sempre do cachorro… Não subestimemos os robôs e nem os cães…!

Como disse um presidente de companhia de IA há algum tempo, contato por Ronaldo Lemos na Folha: A IA vai destruir o mundo; mas até lá muitas empresas serão construídas para fazer boas vendas de tecnologia.

A diferença para com a bomba atômica é que esta funciona se não for utilizada; já a IA é destrutiva já no seu uso!

7. Vem aí uma nova classe social: a dos inúteis

O famoso historiador Yuval Harari, em artigo publicado no The Guardian, intitulado O Significado da Vida em um Mundo sem Trabalho, matou a charada: uma nova classe de pessoas deve surgir até 2050: a dos inúteis“São pessoas que não serão apenas desempregadas, mas que não serão empregáveis”, diz o historiador.

Bingo. Só acho que surge bem antes. Muito antes.

Harari tem razão. Isso se os robôs não acionarem, antes, a guerra nuclear.

8. Post scriptum: segunda-feira, 27 de fevereiro, 18h30, farei uma live com Victor Drummond, especialista em direito autoral, no meu canal no Instagram sobre o tema ChatGPT. Então: @lenio_streck e @interartisbrasil. Como fica a criação literária, artística e jurídica diante dessa tecnologia?

Créditos: Reprodução internet

Deixe um comentário

O comentário deve ter seu nome e sobrenome. O e-mail é necessário, mas não será publicado.

seis − 4 =